- rekurrent
- re|kur|rẹnt 〈Adj.〉 = rekursiv (2)
* * *
re|kur|rẹnt <Adj.> [zu lat. recurrens, ↑Rekurrensfieber]: rekursiv.
Universal-Lexikon. 2012.
* * *
Universal-Lexikon. 2012.
rekurrent — re|kur|rẹnt 〈Adj.〉 = rekursiv … Lexikalische Deutsches Wörterbuch
rekurrent — re|kur|rent <aus lat. recurrens, Gen. recurrentis »zurückkehrend«, Part. Präs. von recurrere, vgl. ↑rekurrieren> svw. ↑rekursiv … Das große Fremdwörterbuch
Rekurrent — Re|kur|rẹnt, der; en, en (schweizerisch für Beschwerdeführer) … Die deutsche Rechtschreibung
Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia